切割平面对于解决混合企业线性问题(MILP)至关重要,因为它们促进了最佳解决方案值的界限。为了选择切割,现代求解器依靠手动设计的启发式方法来评估切割的潜在有效性。我们表明,一项贪婪的选择规则明确地寻求选择的剪裁,从而产生最佳的界限可以为切割选择提供强大的决策 - 但太贵了,无法在实践中部署。作为回应,我们提出了一种新的神经体系结构(神经曲),以模仿LookAhead专家。我们的模型优于标准基准,用于在几个合成的MILP基准上进行切割选择。使用B&C求解器进行神经网络验证的实验进一步验证了我们的方法,并在这种情况下展示了学习方法的潜力。
translated by 谷歌翻译
监督学习可以改善最先进的求解器的组合问题的设计,但是由于指数性最差的复杂性,标记大量组合实例通常是不切实际的。受图像的对比预训练的最新成功的启发,我们对增强设计对布尔满意度问题的对比预训练的影响进行了科学研究。虽然典型的图形对比前训练使用了标签 - 敏捷的增强,但我们的主要见解是,许多组合问题都有良好的态度,这允许设计具有标签的增强功能。我们发现,保留标签的增强对于对比度预训练的成功至关重要。我们表明,我们的表示形式能够达到与完全监督学习的可比测试准确性,而仅使用1%的标签。我们还证明,我们的表示形式更容易转移到看不见的域中的更大问题。我们的代码可在https://github.com/h4duan/contrastive-sat上找到。
translated by 谷歌翻译
在加强学习中的技能或低级政策是时间扩展的动作,可以加快学习并实现复杂的行为。离线强化学习和模仿学习的最新工作已经从一系列专家轨迹中提出了几种技能发现的技术。尽管这些方法很有希望,但发现的技能数量始终是固定的超参数,它需要有关环境的先验知识或其他参数搜索来调整它。我们首先提出了一种脱机学习选择(特定技能框架)的方法,以利用变异推理和持续放松方面的进步。然后,我们重点介绍了贝叶斯非参数和离线技能发现之间未开发的连接,并展示如何获得模型的非参数版本。由于经过精心构造的后端具有动态变化数量的选项,因此可以删除该版本,从而消除了指定K。我们还展示了我们的非参数扩展如何在其他技能框架中应用,并在经验上证明我们的方法可以拨款,我们还显示了我们的非参数扩展如何,我们还显示了如何应用我们的非参数扩展名,并显示了我们的非参数扩展如何,因此该版本是可进行的。在各种环境中的最先进的离线技能学习算法。我们的代码可在https://github.com/layer6ai-labs/bnpo上找到。
translated by 谷歌翻译
机器学习系统经常在培训和测试之间遇到分发转变。在本文中,我们介绍了一个简单的变分目标,其OptiCa正好成为所有表现形式的集合,在那种情况下,保证风险最小化者对保留贝叶斯预测因子的任何分配换档,例如协变量。我们的目标有两个组成部分。首先,表示必须保持对任务的判别,即,一些预测指标必须能够同时最小化来源和目标风险。其次,代表性的边际支持需要跨源头和目标相同。我们通过设计自我监督的学习方法来实现这一实用,只使用未标记的数据和增强来培训强大的陈述。我们的目标在域底实现最先进的结果,并对最近的方法(如剪辑)的稳健性提供洞察力。
translated by 谷歌翻译
为了在结构因果模型(SCM)中执行反事实推理,需要了解因果机制,它提供条件分布的因子,并将噪声映射到样本的确定性函数。遗憾的是,因象无法通过观察和与世界互动收集的数据唯一确定的因果机制,因此仍然存在如何选择因果机制的问题。最近的工作中,Oberst&Sontag(2019)提出了Gumbel-Max SCM,它由于直观上吸引的反事实稳定性而导致Gumbel-Max Reparameterizations作为因果机制。在这项工作中,我们认为选择在估算反事实治疗效果时最小化的定量标准的因果机制,例如最小化方差。我们提出了一个参数化的因果机制,概括了Gumbel-Max。我们表明他们可以接受培训,以最大限度地减少对感兴趣查询的分布的反事实效果方差和其他损失,从而产生比固定替代方案的反复治疗效果的较低方差估计,也推广到在培训时间未见的查询。
translated by 谷歌翻译
高效地培训专家模型的大规模混合,现代硬件需要将数据点分配给不同的专家,每个专家都具有有限的容量。最近提出的任务程序缺乏概率解释和使用偏见估算进行培训。作为替代方案,我们提出了基于原则的随机分配程序的两个无偏的估计,其中跳过超过专家容量的DataPoints,以及使用Gumbel匹配分布的延伸来示范完全平衡的作业[29]。两个估算器都是无偏见的,因为它们纠正了使用的采样程序。在玩具实验中,我们发现“Skip'-Expliesator比平衡采样更有效,并且在解决任务方面比偏置替代方案更加强大。
translated by 谷歌翻译
命题模型计数或#SAT是计算布尔公式满足分配数量的问题。来自不同应用领域的许多问题,包括许多离散的概率推理问题,可以将#SAT求解器解决的模型计数问题转化为模型计数问题。但是,确切的#sat求解器通常无法扩展到工业规模实例。在本文中,我们提出了Neuro#,这是一种学习分支启发式方法,以提高特定问题家族中的实例的精确#sat求解器的性能。我们通过实验表明,我们的方法减少了类似分布的持有实例的步骤,并将其推广到同一问题家族的更大实例。它能够在具有截然不同的结构的许多不同问题家族上实现这些结果。除了步骤计数的改进外,Neuro#还可以在某些问题家族的较大实例上在较大的实例上实现壁式锁定速度的订单,尽管开头查询了模型。
translated by 谷歌翻译
The reparameterization trick enables optimizing large scale stochastic computation graphs via gradient descent. The essence of the trick is to refactor each stochastic node into a differentiable function of its parameters and a random variable with fixed distribution. After refactoring, the gradients of the loss propagated by the chain rule through the graph are low variance unbiased estimators of the gradients of the expected loss. While many continuous random variables have such reparameterizations, discrete random variables lack useful reparameterizations due to the discontinuous nature of discrete states. In this work we introduce CONCRETE random variables-CONtinuous relaxations of disCRETE random variables. The Concrete distribution is a new family of distributions with closed form densities and a simple reparameterization. Whenever a discrete stochastic node of a computation graph can be refactored into a one-hot bit representation that is treated continuously, Concrete stochastic nodes can be used with automatic differentiation to produce low-variance biased gradients of objectives (including objectives that depend on the log-probability of latent stochastic nodes) on the corresponding discrete graph. We demonstrate the effectiveness of Concrete relaxations on density estimation and structured prediction tasks using neural networks.
translated by 谷歌翻译
Story generation and understanding -- as with all NLG/NLU tasks -- has seen a surge in neurosymbolic work. Researchers have recognized that, while large language models (LLMs) have tremendous utility, they can be augmented with symbolic means to be even better and to make up for any flaws that the neural networks might have. However, symbolic methods are extremely costly in terms of the amount of time and expertise needed to create them. In this work, we capitalize on state-of-the-art Code-LLMs, such as Codex, to bootstrap the use of symbolic methods for tracking the state of stories and aiding in story understanding. We show that our CoRRPUS system and abstracted prompting procedures can beat current state-of-the-art structured LLM techniques on pre-existing story understanding tasks (bAbI task 2 and Re^3) with minimal hand engineering. We hope that this work can help highlight the importance of symbolic representations and specialized prompting for LLMs as these models require some guidance for performing reasoning tasks properly.
translated by 谷歌翻译
Since early in the coronavirus disease 2019 (COVID-19) pandemic, there has been interest in using artificial intelligence methods to predict COVID-19 infection status based on vocal audio signals, for example cough recordings. However, existing studies have limitations in terms of data collection and of the assessment of the performances of the proposed predictive models. This paper rigorously assesses state-of-the-art machine learning techniques used to predict COVID-19 infection status based on vocal audio signals, using a dataset collected by the UK Health Security Agency. This dataset includes acoustic recordings and extensive study participant meta-data. We provide guidelines on testing the performance of methods to classify COVID-19 infection status based on acoustic features and we discuss how these can be extended more generally to the development and assessment of predictive methods based on public health datasets.
translated by 谷歌翻译